Yiksan0315's Blog

Adaptive Learning Rates

# Tag:

  • Source/KU_ML2

Adaptive Learning Rates

Error가 줄어들수록 학습이 잘 되고 있을 것이므로, 그에 따라 적절히 Learning Rate를 조절하는 기법.

Error가 작아진다면 학습이 잘 되고 있으므로 Learning Rate를 증가시키고, 아니라면 발산, 진동하는 경우이므로 Learning Rate를 줄여 수렴하도록 한다.

Adaptive Learning rate dependent on past

weights를 전부 graident로 수정하지 않고, weights가 잘 수렴되지 않은 것에 대해서만 weights를 많이 변화하도록 한다.

가 0에 가까워질수록, 학습량이 줄어들게 된다.

AdaGrad

변한 양을 누적시킨다. 누적됨에 따라 가 커지게 되므로, 많이 변하였다면 학습량이 줄어들게 된다.

RMDProp

; ,

최근 것은 작게, 이전의 것은 최대한 많이 반영 시켜 누적시킨다.

toc test

이 페이지는 리디주식회사에서 제공한 리디바탕 글꼴이 사용되어 있습니다. 리디바탕의 저작권은 리디주식회사가 소유하고 있습니다.

This Font Software is licensed under the SIL Open Font License, Version 1.1.

Copyright 2025. yiksan0315 All rights reserved.